“人工智能”(artificial intelligence,简称AI)这一概念自1956年被正式提出,其理论和应用在随后的几十年、尤其是近十年中发展迅猛。“人工智能”即人为制造的智能系统,其相关研究已经成为一个崭新学科和当代尖端科学技术,并在多领域获得了广泛应用——如,能够进行深度学习(Deep Learning)的人工智能机器AlphaGo,通过战胜世界顶级围棋高手,显示了其在专门领域里卓越的智慧能力;ChatGPT的强大功能已经引发世界关注,似乎人类距离通用型或强人工智能(Artificial General Intelligence)已经不远了。ChatGPT和AlphaGo一样,都是具有深度学习机制的弱人工智能体。一般而言,人工智能这一概念涵盖人工智能理论、技术系统与应用领域(见腾讯研究院,第23页),而人工智能体(见简小烜,第98页)则指应用人工智能理论与技术而制造的人工智能机器(见闫坤如,第47页),有时又被人们称为人工智能机器人或智能机器人,但通常人们并不加以区分而统称之为人工智能。这类人工智能体在诸多专门领域(如自动驾驶、医疗诊断、军事、家政服务、抗击新冠病毒等方面)发挥作用。能够深度学习的弱人工智能体向人类诸多社会科学理论提出了挑战,其中首当其冲的就是伦理学理论。人们预言,不久的将来,强人工智能以及超级人工智能的时代也即将来临。目前人工智能领域对于人工智能进行三种不同层级的区分:弱人工智能是相对于强人工智能而言的,前者指的是人工智能只能在少数有限的范围或领域里胜过人类,虽然其专门项目在持续增加;后者又称为通用人工智能,这种达到人类水准的人工智能具有起码能和人类一样达成任何目标的能力;超级人工智能代表超越人类智慧的通用人工智能。(参见铁马克,第69页)深度学习机制并非是通用智能系统,即并非是在用户最少化干预的情况下也能完成任何活动的智能系统,如ChatGPT不可能脱离其设计的技术路线来从事任意活动。(参见何立民,第89页;刘子玥,第8页;铁马克,第67-69页)我们应从理论上积极应对弱人工智能体以及人工智能的未来发展给我们提出的伦理问题。
一、自主性与行为责任归属
弱人工智能体之所以会产生伦理问题,是因为它具有一定的自主性(autonomy),所以与以往所有人造物都不同。相反,如汽车等人造物作为人类社会的代步工具,仅仅表现为一种工具性,而不会被认为与交通事故之间存在某种伦理上的联系,这其中的差别正在于弱人工智能体的自主性。自主性是一个内涵较为丰富的概念,可以分为道德意识与行为意义两个层次。就前者而言,康德道德哲学典型地表达了其含义:个人意志的自主自决以及自我立法。就后者而言,自主性强调的是行为者能够在不受外在因素影响下独立作出决定和选择,并控制自己的行为导向目标。(参见程承评,第60页;丛杭青、王晓梅,第108、86-87页)本文所谈论的弱人工智能体的自主性主要表现为后者。如ChatGPT写诗、写文章、写代码的行为都是其自主性的表现,但这不能表明它有数据能力之外的创新能力。行为自主性是对行为本身进行道德评价的基本要求,同时也是对其道德责任归属的主要考量。亚里士多德的行为自主论是一种自愿论,他认为“强制的始点是外来的,行为者对此无能为力”。(见亚里士多德,第41页)而行为能动者由内在机制(欲望、动机、意图等)主动发生的行为,其动力源于自己,其道德意义为行为主体本身所蕴含。换言之,如果一个人受到外来强制而不能自主决定自己的行为,就是非自主性行为,此类行为不应归责到行为者本身。成熟的人类行为者一般具有返身性道德责任意识,即不仅对于行为的目标有意识,而且对于该行为的影响有责任意识。弱人工智能体适用于这种类推吗?自主性可分为三个层次,即操作性、功能性和完全性道德体(full moral agency)。(cf.Wallach&Allen,p.26)操作性自主完全按照程序设计来执行命令,这种自主是设计者想法的体现;功能性自主是为达到一定的设计目的,使行动主体能够依据环境条件对行为具有一定的调节性,并且具有评价自身行为的一定能力;完全性道德体的自主就是完全依据理性或情感能力的自主。沃利奇和艾伦认为,这三个层次的自主性依次递进,但“人类目前还没有这样的技术”能够实现从第二层次到第三层次的进化。(ibid.)人类行为自主性可以涵盖这样三个层次,而弱人工智能体目前只有操作性自主性和功能性自主性。操作性自主智能可部分替代人的劳动,但其伦理意义较小。凡是涉及人与人关系的地方,就具有伦理道德上(善恶、好坏)的意义,如智能工业机器人发生伤人事件,就是具有伦理恶的事件。伦理意义的大小主要取决于弱人工智能体的人际互动程度。在某一领域能够从事功能性活动的弱人工智能体,其蕴含的伦理意义有高下之分:如围棋人工智能体仅仅是与人对弈,相对人际互动不多;而无人驾驶汽车,在行进中需要面对不断出现的路人以及乘客的不同状况,因而与围棋人工智能体相比,无疑其伦理意义更大。虽然弱人工智能体具有在某一领域从事工作的卓越智能,但仍然不具有与人类的智能相比的真正通用性。虽然目前弱人工智能体的智能活动并非称得上严格意义的、在人的自愿自主行为意义上发生的“行为”,但从机器算法的逻辑意义及自主行为的定义来看,这无疑具备了某些类人自主行为的特征。有人提出:“这种‘自主性’只是看上去像有,而实质上并没有,这种自主性源于一种功能赋予。所谓的功能赋予,是指行动者利用物体的自然属性达到他们的目的,人类和某些动物具有赋予对象某种功能的能力。”(宋春艳、李伦,第97页)但这类反对意见对于能够进行自主判断的弱人工智能体来说是不成立的。弱人工智能体代表了人类制造智能方面的突破性进展,“创造会思考的机器的可能性可能引发一系列的伦理问题,既与确保机器不伤害人类和其他与道德上关联的存在者有关,也与机器本身的道德地位有关”。(cf.Bostrom&Yudkowsky,p.316)“会思考”(thinking)的含义并不确切,正是因为这类机器具有一定的自主性,才引发了所谓的“道德地位”的问题,这与行为者的自主能力和道德责任能力相关。那么,弱人工智能体是某种自主而有承担责任能力的道德行为者吗?弱人工智能体与具有理性的自我主体(即人)所作出的抉择从机制上看并非完全一样,但其结果都表现为行为自主。弱人工智能体目前的主要基本工作机理为符号主义(symbolicism)、联结主义(connectionism)和行为主义(actionism,或称进化主义evolutionism),这三者目前已呈融合趋势。能够进行逻辑演绎、强计算以及类神经网络的深度学习,具有很强的推理运算能力以及有限的模拟人类神经系统的结构与功能,在与环境互动中自主学习、作出判断,从弱人工智能体的逻辑演绎和运算能力以及作出选择和决定的能力看,它具有某种类人类理性的人工理性。需要注意的是,动物的自主性活动是因本能(刺激-反应)或感性欲求,并非由于内在理性而活动,这是动物与人的区别,也与弱人工智能体不尽相同。人工智能从根本上是为人类服务的,它能实现人脑的延伸和体力的解放,因而与人的利益息息相关。但其活动必须以善目的为导向。人工智能程序设计者可以把人类的道德规范、道德价值要素编制为人工智能的运算程序来让它们遵守或执行。(cf.M.Anderson&S.Anderson,p.75)人工理性充其量只是人类推理运算理性的拟人化形式,虽然道德判断往往也要用到逻辑推理,但伦理问题更多的是价值理性而非认知理性在起作用。人类的道德价值思维并非完全按照外在规范而是按照内化了的规范以及体现为品格的德性来进行符合规范的行动。实践理性并非像逻辑程序那样固化,而是因人的品格境界的差别而体现出千差万别的道德特性,这与机器按照指令程序来行动完全不同。人类自主性是在既有理性又具有自我意识的前提下的自主性,弱人工智能体的自主性是在没有自我意识前提下的自主性,因而并不能完全等同于人类自主性那样的自主性。那么,弱人工智能体可能具有道德责任意识吗?道德责任意识是一种返身性意识,即能够对于自己的欲望、意图或动机进行道德评价,并且在行动之后也能因自己的行为产生对他人有利或不利的后果而感到满意或内疚。弱人工智能体没有返身性思维的能力,因此不可能建构起道德责任意识,但这并非意味着不需要承担道德责任。没有人类意识但具有一定自主性的人工智能,由于其有着一定人类智能性质的理性,并且也由于人可以将道德规范命令作为程序因子编入人工智能运行的程序之中,(ibid.)从而能够有道德意义上的行动。人工智能的深度学习基于程序算法给出的目标指令,但怎样最优地达到设置目标,则是人工智能机器人(又称智能机器或智能机器人)本身的作为。(参见郭万明,第130页;闫坤如,第50页)然而,如果智能机器人(目前的智能机器人也就是弱人工智能体)按照程序指令进行工作而出现某些并非由于程序本身造成的伤害人的问题,应该如何对其进行法律或道德责任意义上的处罚?弱人工智能机器人在本质上仍属于人的工具,不具备法律主体资格。(参见贺栩溪,第105页)有人认为,机器人即使有程序性自主性,但到目前为止的机器人没有责任心,也不能担负道德责任,因此不是道德行为者。(cf.Sullins,pp.24-25)但即使这类智能机器人不能像人一样具有责任心和承担道德责任,也不是严格意义上的道德行为者,并不意味着就不应承担责任,只是人类暂时没有找到合适的使其像人一样承担道德责任的方式而已。责任、义务与权利是对等的,智能机器人具有一定的道德责任就应当享有一定的道德权利,但如何使机器人享有与自然人一样的法律道德权利和身份,仍然是一个问题。如ChatGPT已经可以按照程序指令来作画或写出优美的诗篇,那我们是否也应当保护这类弱人工智能体的著作权?这种著作权又如何履行?即使强调弱人工智能体是道德责任和权利的归属主体,弱人工智能体本身并没有意识,它不可能意识到自己负有某种责任,那么如何使其承担道德责任以及享有相应的权利?
按前述,自主性意义上的充分的“道德能动体”目前只有人类存在者才可充当,或者说,只有人才是道德行为者(moral agent,后一概念又译为能动者)。具有自主性的、能够意识到自己行为的意向,并能够因此承担相应责任的行为者可称之为道德行为者。(cf.Sullins,p.28)然而,就理性人而言,作为一个道德行为者,其特征远比这三个要素更为丰富。理性人的行为不仅与他的理性和情感相关,也与他的品格内在相关。亚里士多德认为,人作为道德行为者的本体依据在于人的灵魂。体现作为人的灵魂的本质特性的是理性,德性以理性相符,因而“是灵魂的德性”。(见亚里士多德,第22页)行为的正当性以符合理性为依据,如果人们因放纵自己的情感、欲望而受到责备,那么受到责备是很正当的,人的行为只有符合理性或听从理性的指导,才是符合德性的行为。亚里士多德的灵魂说是其德性本体论最深层次的理论。就德性论本身而言,人的德性行为还应当有一个品格品质的内在根据。人有德性品质,才会有德性行为。德性品格可看作是人的长期道德行为习惯培养的产物,又可看作是人的理性潜能和体现。内在品格是在人的道德行为习惯中所养成的,因此,一个理性的人体现出的内在卓越的行为,也是品格的展现。当然,理性与品格两者也有不一致的情形,如罪犯运用理智来犯罪体现的就不是德性,而是恶。换言之,内在卓越的道德品质是行为合乎善的要求的德性保障。但仅仅有德性往往也会犯错。要做到理性与德性要求的一致,就要求人们在相应的条件下展现出其理智符合德性的判断,在适当的环境、适当的时间和适当条件下作出相应判断和行动。质言之,人的德性行为体现为德性品格和理性共同发挥作用的行为。亚里士多德的德性论又可说是一种理性论(不排除品格也起作用)。在亚里士多德的意义上,理性可分为理论理性与实践理性,就理论理性而言,理性是分析、推理、判断,同时也是“对普遍者和那些出于必然的事物的把握”。(见亚里士多德,第121页)通晓几何、算术这类知识是智慧,而理性更重要的使命是沉思永恒的、最高的或普遍的存在,因而沉思是最高的幸福。实践智慧或实践理性,则是在道德、政治等实践中运用正确的原则。(参见同上,第114页,译文为“正确的原理”)功能性弱人工智能体的超强运算能力可高效而卓越地胜任某领域里的工作或实现其任务目标,在这个意义上,弱人工智能体具有亚里士多德所说的理性或卓越。然而,就伦理德性而言,亚里士多德同时认为不可忽视理性所起的决定作用以及德性品格所起的作用。理性指导与内在德性品格同样重要。但人工智能是否能够达到亚里士多德所理解的双重意义上的理性,还是一个未知数。在亚里士多德那里,德性品格在行为意义上体现为行为者的行为习惯,即在道德环境条件相同或类似的情形下可以通过某个行为主体在这样的环境下通常如何行动来预见他将如何行动。那么,人工智能是否可以通过程序编写将重要的德性品格写入人工智能程序,从而使得人工智能能够依据内在指令来合乎道德地行动?人的品格特性是一种道德心理气质,也包括内在规范性内容。对于规范性内容,人工智能应当可以将其作为神经网络的运算因子。就此,人的德性品格实质性内涵可以转化为某种人工理性。但是,亚里士多德认为,德性行为在实践中并非是刻板地遵循伦理准则或规范,而是在实践理性的指导下在适当的场合、适当的时候,以适当的方式,为适当的目的对适当的人而言。(参见同上,第66页,译文为“应该”)一个慷慨的人给予他人多少援助,这既有理性判断所起的作用,也有内在品格的关键性因素,一个没有慷慨品格的人的理性算计的就不是能够帮助别人多少,而是怎样对自己更有利。人工智能可以把围棋的成千上万种正确算法编成程序并输入人工神经网络,通过深度学习,在与对手下棋时走出正确的一步。但是,人类的道德生活并非像围棋那样有着固定的格式,而是需要面对不断变化的情景中的行为对象。对于生活世界中的情景要求,行为主体往往是从内在品格出发,在与施行对象不断互动中进行理性判断,并调整自己的行为。范例学习可以获得道德原则,但并不意味着可以应对在程序中没有预见到的道德情景。数理逻辑是人工智能的神经网络深度学习的工作基础,其特点是形式化和确定化,根据逻辑规则从公理开始演算,为了更好地模拟现实和寻找解决问题的方案,就需要尽可能完善的数据库,这使得运行模式越来越复杂。但再大的数据库、再复杂的运行模式,也无法回答人类道德行为的不确定问题。如果把理性与情感或感性作为看待人性的两极,休谟站在亚里士多德的对立面。休谟认为,理性并不可能成为道德的动因,也并非决定道德的根本属性。休谟强调人的道德动因来自于人的自然情感。人的自然天性结构即人的自然生命结构使得人对痛苦和快乐的感受成为最深层次的感受或情感,一切人的情感,喜、怒、哀、悲、乐等等都与生命对快乐与痛苦的体验相关。休谟把苦与乐看成是直接情感,而骄傲、谦卑、虚荣、妒忌、恶意等则为间接情感。休谟说:“根据自然的原始结构,某些性格和情感在一经观察和思维之下,就产生了痛苦,而另外一些的性格和情感则在同样方式下刺激起快乐来。”(休谟,第331页)并且,休谟认为人的快乐与痛苦的体验或感受与道德内在相关:“德(virtue)引文根据书后的中英对照表加了“virtue”这一英文,之所以标出英文,是因为译者译法与目前通行(目前译法为二:德性或美德)的不一致,故标出。的本质就在于产生快乐,而恶的本质就在于给人痛苦。”(同上,第330-331页)人的所有情感不仅可以归结为快乐与痛苦,而且德性与恶习的本质都可以看作是快乐或痛苦。休谟的观点与霍布斯、洛克一脉相承,他们都将快乐与痛苦与道德的善恶直接联系起来。但休谟更进一步,认为这是由人的自然生命的基本结构所决定的。换言之,人作为一个道德行为者的善恶或德与恶,在于人生命的自然感受(快乐与痛苦的情感感受)。休谟强调人的生命结构具有感知道德善恶的能力:“我们既已讨论表现于人类方面的爱和恨,以及它们的各种混杂和组合,现在可以进而研究表现于畜类方面的这些感情;我们可以说,不但爱和恨是全部感情动物所共同的,而且……可以很容易地被假设为在单纯的动物身上起作用。”(同上,第435页)存在于人类身上的对他者的爱与恨、同情或情感的传导也同样可以在动物那里发现。但休谟认为,动物身上的自然情感并非是道德上的善与恶,人类的道德观念并非同样存在于动物界和植物界。如人类的血族通奸是罪恶,在动物方面就丝毫不是罪恶。这在植物界也同样如此。杀害父母是人类所犯罪中最大的罪恶之一,但在植物界并非是罪恶,如幼小的橡树长大后将老树毁灭。(见同上,第507页)在人类行为者那里,情感与道德有着直接的关联,在动物或植物这里,则没有关联。那么,人类的道德是怎样为人所感觉到的呢?休谟认为是人的心灵感觉到的,这由德与恶的本性所决定:“由德发生的印象是令人愉快的,而由恶发生的印象是令人不快的。”(休谟,第510页)并且,“发生德的感觉只是由于思维一个品格感觉一种特殊的快乐。正是那种感觉构成了我们的赞美或敬羡。我们不必再进一步远求;我们也不必探索这个快感的原因”。(见同上,第511页)休谟的说法仍然是回到快乐与痛苦这些最原生的情感中去。由于在动物那里没有人类感受德或恶而产生快乐或痛苦的情感感受,使得它们没有像人类一样的道德感或道德能力。人工智能是否能够拥有类似于人的情感?目前的研究已经有了进展,其代表是加州技术学院所制造的“社交机器人”Leonardo(cf.Wallach&Allen,p.161)以及麻省理工学院的嗅觉感机器人The Cyranose 320(ibid.,p.150)。从休谟的观点看,目前的情感智能机器人并不具有休谟意义上的情感反应,更不具有从感觉上分辨道德的能力。那么,人工智能科学家能够有这样的程序算法将休谟所说的道德在情感上的感应写入人工智能的神经网络吗?这无疑是对目前的弱人工智能体提出了过高的要求。沃利奇和艾伦认为,“在可操作性道德和责任道德能动性之间,从仅仅在可接受的行为标准到理智系统(这一系统具有评估他们自己的某些道德意义的行为能力),存在着我们称之为的‘功能性道德’的许多等级”。(ibid.,p.26)亚里士多德的理性(德性)本体论和休谟的自然生命情感论是对人作为道德能动体的理论描述,二者都排除了在这个世界上在所有自然生命的存在之外,除了人类还有道德行为者存在的可能。亚里士多德强调只有人才有理性,其他有生命的事物都没有理性,从而不可能有类似于人类的德性行为。但是,人工智能的发展趋势表明,类似于具有人类理性和情感的强人工智能将在在弱人工智能的不断进化中出现。当前弱人工智能体具有一定的自主性,理论上应当承担相应的道德责任。但弱人工智能体并不具有道德行为者的基本要素,使其无法作为承担责任的主体来行事。如果弱人工智能发展到强人工智能,具有亚里士多德式的实践理性和德性品格以及休谟式的情感,能够有情感体验、与人类进行情感交流,那么,这样一类人工智能体将是一类具备了作为道德行为者的基本要素的行为者。面对这类特殊的道德行为者,我们首先需要伦理理论的重建,提出一套类似人类行为的从动机、意图、理由到行为过程、再到行为后果的伦理规则和规范体系,培育内在道德品格德性的、适应于人工智能体的道德理论。其次,我们需要与人工智能领域的专家合作,探讨如何使这套理论成为人工智能的程序编程语言以及如何训练人工智能学习成为道德的机器人。这类伦理工作的意义不仅在于应对当前的弱人工智能体给我们带来的伦理挑战,也为不久将来可能出现的、具有人类意识或类似人类的自主意识的人工智能作好伦理准备。参考文献[1]布伦塔诺,2020年:《从经验立场出发的心理学》,郝亿春译,商务印书馆。[2]程承坪,2021年:《人工智能的工作机理及其局限性》,载《学术界》第1期。[3]丛杭青、王晓梅,2013年:《何谓Autonomy?》,载《哲学研究》第1期。[4]郭万明,2020年:《人工智能体有限法律人格论》,载《广西社会科学》第2期。[5]何立民,2020年:《从弱人工智能、强人工智能到超人工智能》,载《单片机与嵌入式系统运用》第8期。[6]贺栩溪,2019年:《人工智能的法律主体资格研究》,载《电子政务》第2期。[7]简小烜,2020年:《人工智能体的道德设计及其面临的挑战》,载《长沙大学学报》第4期。[8]江怡,2019年:《对人工智能与自我意识区别的概念分析》,载《自然辩证法通讯》第10期。[9]李奇、耿海燕,2008年:《视觉意识的认知神经科学研究进展》,载《自然科学进展》第11期。[10]刘晓力等,2020年:《认知科学对当代哲学的挑战》,科学出版社。[11]刘子玥,2021年:《关于弱人工智能与强人工智能的思考》,载《电子元器件与信息技术》第7期。[12]斯加鲁菲,2017年:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,人民邮电出版社。[13]宋春艳、李伦,2019年:《人工智能体的自主性与责任承担》,载《自然辩证法通讯》第11期。[14]腾讯研究院,2017年:《人工智能》,中国人民大学出版社。[15]铁马克,2018年:《Life 3.0:人工智慧时代,人类的蜕变与重生》,陈以礼译,台北远见天下文化出版股份有限公司。[16]汪云久、唐孝威、Wu Jianyong(吴建永)、周昌乐,2001年:《意识的计算神经科学研究》,载《科学通报》第13期。[17]王晓梅、丛杭青,2014年:《自主性与道德》,载《哲学研究》第2期。[18]休谟,1980年:《人性论》下卷,关文运译,郑之骧校,商务印书馆。[19]亚里士多德,1990年:《尼各马科伦理学》,苗力田译,中国社会科学出版社。[20]闫坤如,2019年:《人工智能机器具有道德主体地位吗?》,载《自然辩证法研究》第5期。[21]翟振明、彭晓芸,2016年:《“强人工智能”将如何改变世界》,载《学术前沿》第4期。[22]赵泽林、高新民,2007年:《人工智能的瓶颈问题和本体论语义学的回应》,载《哲学动态》第6期。[23]Anderson,M.and Anderson,S.,2010,“Robot Be Good”,in Scientific American 303(4).[24]Bostrom,N.and Yudkowsky,E.,2014,“The Ethics of Artificial Intelligence”,in K.Frankish and W.Ramsey(eds.),The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press.[25]Habermas,J.,1981,Theorie des Kommunikativen Handelns,Bd.1,Frankfurt am Main:Suhrkamp Verlag.[26]Searle,J.,1983,Intentionality:An Essay in the Philosophy of Mind,Cambridge:Cambridge University Press.[27]Sullins,J.,2006,“When Is a Robot a Moral Agent?”,in International Review of Information Ethics(6).[28]Wallach,W.and Allen,C.,2009,Moral Machines:Teaching Robots Right from Wrong,Oxford:Oxford University Press.